Investigadores independientes

Citacion sugerida: Chávez Zambrano, F. & San Andrés Molina, C. (2025). Intersección entre inteligencia artificial y derecho: implicaciones jurídicas y limitaciones del marco regulatorio ecuatoriano frente a la IA. Nullius, 6 (2), 130-140. https://doi.org/10.33936/nullius.v6i2.8059

Recibido: 18/09/2025

Aceptado: 02/12/2025

Publicado: 10/12/2025

*Carlos Eric San Andrés Molina

Fabiola Chávez Zambrano

Intersección entre inteligencia artificial y derecho: implicaciones jurídicas y limitaciones del marco regulatorio ecuatoriano frente a la IA

Intersection between Artificial Intelligence and Law: legal implications and limitations of the Ecuadorian regulatory framework about AI

Autores

e-ISNN 2737-6125

sanandreseric@hotmail.com

fabiolachavezab27@gmail.com

revista.nullius@utm.edu.ec

Vol. 6, Núm. 2 (119-129): Julio-Diciembre, 2025

Resumen

La acelerada expansión de la inteligencia artificial (IA) plantea desafíos ético-jurídicos que exigen respuestas normativas claras y eficaces. Esta investigación tuvo como objetivo analizar los vacíos existentes en el marco normativo ecuatoriano en relación con el uso de sistemas de inteligencia artificial, y proponer lineamientos para una regulación constitucionalmente coherente. Se utilizó un análisis de enfoque jurídico-documental por medio de referencias de normas nacionales, marcos regulatorios comparados y doctrina especializada. Los resultados de la presente investigación evidencian la inexistencia de una legislación específica sobre IA en Ecuador, lo que expone en alto grado a los ciudadanos a generar riesgos de opacidad algorítmica, discriminación automatizada y falta de garantías procesales. Asimismo, se encontró que la Superintendencia de Protección de Datos Personales no posee la capacidad técnica ni jurídica para fiscalizar el uso de tecnologías automatizadas. Por el contrario, modelos como la regulación de IA de la Unión Europea cuentan con herramientas de clasificación de riesgos, transparencia y controles institucionales que podrían replicarse en el caso de Ecuador. En definitiva, se propone apoyar una ley orgánica de inteligencia artificial basada en principios constitucionales y estándares internacionales y equipada con mecanismos de gobernanza que promuevan la dignidad humana y la protección de los derechos fundamentales.

Palabras clave: discriminación automatizada; inteligencia artificial; legislación; mecanismos de gobernanza; regulación.

Abstract

The rapid expansion of artificial intelligence (AI) raises ethical and legal challenges that require clear and effective regulatory responses. The aim of this research was to analyze the gaps in Ecuador’s regulatory framework about the use of artificial intelligence systems and to propose guidelines for constitutionally consistent regulation. A legal-documentary analysis was used, drawing on references to national regulations, comparative regulatory frameworks, and specialized doctrine. The results of this research show that there is no specific legislation on AI in Ecuador, which exposes citizens to a high degree of risk of algorithmic opacity, automated discrimination, and lack of procedural guarantees. It was also found that the Superintendency of Personal Data Protection does not have the technical or legal capacity to oversee the use of automated technologies. In contrast, models such as the European Union’s AI regulation have risk classification tools, transparency, and institutional controls that could be replicated in Ecuador. Ultimately, we propose supporting an organic law on artificial intelligence based on constitutional principles and international standards and equipped with governance mechanisms that promote human dignity and the protection of fundamental rights.

Keywords: automated discrimination; artificial intelligence; legislation; governance mechanisms; regulation.

Nullius: Revista de pensamiento crítico en el ámbito del Derecho

DOI: 10.33936/nullius.v6i2.8088

Introducción

Desde una perspectiva filosófica, la humanidad ha buscado constantemente comprender y adaptarse a los avances tecnológicos, impulsada por la necesidad de mejorar su calidad de vida y responder a un entorno social en permanente transformación. La historia demuestra que las primeras herramientas surgieron como respuesta a necesidades básicas; por ejemplo, la utilización de piedras para abrir cocos evidencia cómo incluso los recursos más simples permitían resolver problemas cotidianos. A medida que la humanidad evolucionó, la tecnología lo hizo también, dando lugar a innovaciones cada vez más complejas como la inteligencia artificial (IA), cuyos fundamentos conceptuales emergieron en la década de 1950 con los aportes de Alan Turing, especialmente sus estudios durante la Segunda Guerra Mundial para descifrar la máquina Enigma.

Posteriormente, figuras como John McCarthy impulsaron debates sobre la posibilidad de que una computadora pudiera razonar como un ser humano, lo que marcó el inicio del desarrollo formal de la inteligencia artificial. Desde entonces, la IA se ha expandido hacia diversas áreas, desde la medicina hasta el análisis de datos, generando oportunidades y riesgos en proporciones similares. En el caso ecuatoriano, la incorporación de normas relacionadas con la protección de datos personales frente al uso de IA se produjo recién en 2021, cuando la legislación comenzó a reconocer los desafíos asociados a estas tecnologías (Barragán Martínez, 2023).

La aparición de tecnologías disruptivas como la IA plantea retos importantes para el derecho, especialmente en cuanto a la protección de datos personales, que constituye un derecho fundamental susceptible de ser vulnerado mediante sistemas automatizados. Como señala Núñez Ponce (2021), las sociedades tecnológicas introducen desafíos complejos para los marcos jurídicos tradicionales, obligando a los operadores del derecho a adaptarse a fenómenos emergentes que evolucionan con rapidez y transforman profundamente la relación entre tecnología y sociedad.

Actualmente, la inteligencia artificial forma parte de múltiples actividades cotidianas, desde herramientas de traducción automática hasta filtros que identifican correos electrónicos no deseados. Estos sistemas requieren grandes volúmenes de datos para funcionar adecuadamente, lo que genera tensiones entre la innovación tecnológica y la protección de la privacidad. Este escenario obliga a replantear las normas existentes y a evaluar si son suficientes para garantizar los derechos fundamentales en entornos automatizados.

En Ecuador, la Ley Orgánica de Protección de Datos Personales y su reglamento buscan regular el uso de datos personales, y en 2024 se creó la Superintendencia de Protección de Datos Personales como el órgano encargado de supervisar su cumplimiento. Sin embargo, persiste la interrogante sobre si este marco legal es adecuado para enfrentar los riesgos asociados a la inteligencia artificial, especialmente considerando que la normativa vigente no fue diseñada específicamente para abordar la complejidad de los sistemas automatizados. Por ello, este estudio examina las implicaciones legales del uso de la inteligencia artificial en Ecuador y analiza si la legislación actual ofrece herramientas suficientes para regular de forma efectiva los nuevos riesgos que plantea esta tecnología disruptiva.

Metodología

El estudio utiliza un enfoque cualitativo, analítico y descriptivo, orientado a examinar en profundidad el marco legal ecuatoriano relacionado con la protección de datos personales y el uso de inteligencia artificial. Se centró particularmente en la Ley Orgánica de Protección de Datos Personales (LOPDP), su reglamento y su relación con el Reglamento General de Protección de Datos de la Unión Europea (RGPD). La selección de estos textos normativos responde a su relevancia directa para el objeto de estudio y a su valor jurídico como fuentes primarias para evaluar los alcances y limitaciones del sistema ecuatoriano.

La metodología incluyó una revisión sistemática de fuentes legales, doctrinarias y académicas especializadas. Para garantizar la validez de las fuentes empleadas, se tomaron en consideración únicamente documentos oficiales, leyes vigentes, literatura académica indexada y estudios técnicos producidos por organismos con reconocimiento institucional. Este criterio de selección permite diferenciar los elementos válidos para la investigación de aquellos con escasa rigurosidad o sin sustento jurídico, asegurando que el análisis pueda ser replicado por otros investigadores y que sus resultados sean evaluables de manera objetiva.

Asimismo, se examinaron investigaciones académicas previas que evidencian que el uso arbitrario de la inteligencia artificial puede producir vulneraciones a derechos fundamentales, especialmente en lo relacionado con la privacidad y la protección de datos personales. Este análisis comparado permitió identificar que el derecho tradicional no está preparado para enfrentar los nuevos riesgos derivados de la automatización.

El estudio también contrastó la LOPDP con normativas internacionales y de países que han avanzado en la regulación de la IA, lo cual permitió demostrar que en Ecuador persisten vacíos legislativos relevantes. La normativa vigente no ha resuelto los problemas generados por la incorporación acelerada de tecnologías inteligentes, lo que evidencia la necesidad de desarrollar marcos regulatorios más robustos.

Finalmente, se analizó la creación en 2024 de la Superintendencia de Protección de Datos Personales, entidad encargada de supervisar el cumplimiento de la LOPDP. La revisión consideró su estructura, competencias legales y limitaciones técnicas, con el fin de evaluar cómo este organismo podría contribuir a fortalecer el control regulatorio y la implementación de medidas de supervisión sobre tecnologías que procesan datos personales. Este proceso metodológico permitió identificar la importancia de mejorar las herramientas legales y tecnológicas disponibles en el país, debido a que las actuales no son suficientes para enfrentar el rápido desarrollo de la inteligencia artificial.

Resultados

1. Introducción en la investigación referente a la materia de protección de datos personales e inteligencia artificial en Ecuador.

Este capítulo aborda la relación entre la inteligencia artificial y la protección de datos personales en el contexto ecuatoriano. Comienza contextualizando el desarrollo global de la inteligencia artificial, cómo afecta a los diferentes campos y cuáles son los desafíos legales y éticos en su aplicación. Haciendo hincapié en los beneficios y riesgos que plantea para la privacidad de las personas y sobre cómo la inteligencia artificial ha cambiado la forma tradicional de recopilar, procesar y usar los datos personales.

Además, se hace referencia a la base jurídica que permite la protección de datos personales, enfatizando tanto a la Constitución ecuatoriana y la Ley Orgánica de Protección de Datos Personales. Asimismo, se plantea la importancia de la investigación en el contexto ecuatoriano, pero se evalúa la necesidad de fortalecer la regulación considerando las NTD (nuevas tecnologías disruptivas).

En resumen, este capítulo articula una sólida base teórica y contextual que nos permite comprender la articulación altamente compleja de la tecnología con la privacidad y los derechos humanos. Ante este panorama, se configura un campo que será receptivo al análisis en profundidad que caracteriza los siguientes capítulos y su objetivo principal: revelar los problemas jurídicos que genera esta situación y las propuestas de mejora que el derecho ecuatoriano puede ofrecer.

1.1. Contextualizando la inteligencia artificial (IA) y su evolución global

La inteligencia artificial (IA) constituye una de las innovaciones tecnológicas más relevantes de las últimas décadas, no solo por su capacidad para transformar múltiples sectores productivos y sociales, sino también por las implicaciones que tiene en el ámbito de los derechos fundamentales. En particular, su desarrollo y aplicación generan desafíos significativos en materia de protección de datos personales y de garantía de la privacidad, aspectos esenciales en las sociedades contemporáneas sustentadas en el flujo constante de información digital.

Desde sus orígenes, la IA se ha configurado como un campo de estudio complejo orientado a reproducir ciertas capacidades humanas, tales como el aprendizaje, la toma de decisiones y el razonamiento. En este proceso, se han desarrollado diversos paradigmas de sistemas cognitivos, que van desde la inteligencia artificial simbólica, centrada en la emulación del pensamiento lógico y estructurado, hasta enfoques más avanzados, como el aprendizaje automático y el aprendizaje profundo, los cuales permiten a las máquinas procesar grandes volúmenes de datos, identificar patrones y generar respuestas o decisiones con una mínima intervención humana.

1.1.1. Inteligencia Artificial: Conceptualización, Desarrollo y Aplicaciones

La IA ha pasado por un sinnúmero de cambios durante su desarrollo. En su etapa inicial, todo estudio se centraba en la creación de sistemas inteligentes diseñados con la finalidad de ejecutar tareas específicas y correctamente conceptualizadas. A medida que trascurrían los años, gracias al surgimiento de algoritmos de aprendizaje automático, las máquinas empezaron a procesar grandes volúmenes de datos, identificar patrones complejos y hacer predicciones basadas en dicha información.

No hay que dejar pasar por alto que, siendo una herramienta avanzada, la inteligencia artificial ha motivado grandes debates filosóficos y éticos desde su nacimiento. Autores como Alan Turing y su conocido Test de Turing (1950), que consideraba la idea original de que una máquina debía ser considerada “inteligente” si conseguía engañar a un humano, parecen todavía ser la principal referencia para comprender el fenómeno mismo de la IA en relación con los humanos. Turing creía que, si una máquina podía realizar tareas intelectuales humanas de la misma manera que un humano, también podría considerarse inteligente, aunque las implicaciones éticas de una idea como ésta todavía serían un tema de debate hoy en día.

1.1.2. IA y protección de datos personales: un desafío legal y ético global

Sin lugar a duda, la inteligencia artificial ha sido una fuerza transformadora en la economía y la sociedad. Sin embargo, su rápida expansión ha revelado una serie de cuestiones éticas y legales, particularmente en lo que respecta a la protección de datos personales. Los sistemas de inteligencia artificial dependen del procesamiento de grandes cantidades de datos para entrenar sus algoritmos, lo que plantea preguntas importantes sobre cómo se deben procesar, almacenar y utilizar estos datos, especialmente los datos confidenciales.

Actualmente, una de las mayores amenazas que se pueden asociar al uso de la IA es la falta de claridad sobre el tratamiento de datos personales, así como la toma de decisiones basada en procedimientos automatizados. El Reglamento General de Protección de Datos de la Unión Europea es un estándar de referencia internacional relacionado con la regulación de la protección de datos personales en las nuevas tecnologías, incluida la IA.

En la Unión Europea, se tuvo como fecha de aplicación 2018, y entre sus principios mencionados se encuentran la transparencia, la finalidad específica del dato, el consentimiento informado y la minimización de la información que se recoge, siendo elementos importantes para poder facilitar el control de cómo se gestionan los datos personales, de forma ética, de manera que se respete la privacidad de las personas. Lo transcendental de este Reglamento es que impide la toma de decisiones automatizada e informativa sin la intervención humana.

Sin embargo, varios países latinoamericanos todavía están en plena construcción de un marco legal apropiado para la protección de datos personales y que se ajuste a regulaciones como la creada por la Unión Europea (RGPD). Si bien algunos países, como Brasil, han adoptado su Ley General de Protección de Datos (LGPD), que por cierto está en gran medida en línea con el enfoque propuesto por el RGPD, hay otros países de la región, como México o Argentina, que aún carecen de una regulación de protección de datos que se adapte a la realidad tecnológica actual (De la Maza & Momberg Uribe, 2017).

La Ley Orgánica de Protección de Datos Personales (LOPDP) de Ecuador (2021) supuso un importante avance en la equiparación del país con las mejores prácticas internacionales en el ámbito de la regulación del tratamiento de datos, aunque el desarrollo de las infraestructuras necesarias para poder implementar dicha normativa actualmente aún es algo escaso.

Según Escalante (2007), a la par de la creación de una normativa relacionada a temas que derivan de la protección de datos se debe instaurar un organismo con la finalidad de supervisar el tratamiento de datos. En Ecuador se creó en 2024 la Superintendencia de Protección de Datos Personales siendo un avance clave en la aplicación efectiva de la ley, sin embargo, es necesario que este organismo cuente con las herramientas y recursos necesarios para supervisar de manera efectiva el uso de la IA y asegurar la protección de la privacidad de los ciudadanos.

1.1.3. Desafíos prácticos de la IA en Ecuador: Implementación y control

En Ecuador, a pesar de esfuerzos legislativos como la LOPDP, los desafíos prácticos de implementación de las leyes de protección de datos personales son significativos. Barragán Martínez (2023) señala que, aunque la normativa busca fijar unas condiciones para proteger los datos personales, su aplicación en un entorno de rápido y constante cambio como el de la IA es insuficiente hoy en día. El país tiene desafíos en ciertos componentes básicos, por un lado, a que las empresas que utilizan inteligencia artificial no cuentan con la infraestructura tecnológica necesaria para monitorear el procesamiento de datos y, por otro, a que no existen reglas claras sobre el uso de algoritmos en la toma de decisiones automatizadas. Se está generando una preocupación en áreas como la educación, el empleo y la banca sobre cómo afecta la justicia y la igualdad.

Bousquette (2023) manifiesta que se puede inducir a decisiones discriminatorias en estos sectores, ya que, tienen el potencial de reproducir sesgos históricos contra ciertos grupos, especialmente en áreas como el trabajo o el crédito financiero. La utilización directa de la IA, sin una intervención humana en la toma de estas decisiones pueden vulnerar directamente la igualdad de oportunidades y puede violar el principio constitucional de no discriminación.

Si bien la Ley de Protección de Datos en Ecuador está vigente, se requiere de una actualización constante en sus articulados por la rápida expansión de la inteligencia artificial y, para dar garantía a esta problemática y que la misma se utilice de forma ética y legal, el gobierno de Ecuador debería centrarse en concientizar a sus ciudadanos sobre sus derechos de privacidad y fortalecer las instituciones que empleen esta herramienta.

1.2. La inteligencia artificial y sus desafíos jurídicos en relación con la protección de datos personales en Ecuador

1.2.1. Desafíos en la implementación de las leyes actuales

La Ley Orgánica de Protección de Datos Personales (LOPDP), que se promulgó en Ecuador en 2021, constituyó un progreso notable para las leyes ecuatorianas con respecto a la protección de la privacidad en el marco de la digitalización. Sin embargo, la aplicación efectiva de esta ley aún enfrenta desafíos importantes, particularmente en relación con el uso de inteligencia artificial (IA) para procesar grandes cantidades de información personal. Se conceptualizan principios esenciales en el marco de la LOPDP como la transparencia, el consentimiento informado y la limitación de las finalidades del uso de los datos personales.

Según este postulado, la legislación da cumplimiento con los estándares internacionales normativos como el RGPD de la Unión Europea, que de manera imperativa refiere que los datos se recopilen para fines específicos y no se procesen erróneamente que resulte en una incompatibilidad con ellos. En referencia a la puesta en práctica, se ha retardado el cumplimiento de los principios de la LOPDP debido a la falta de infraestructura tecnológica y la falta de preparación de los funcionarios encargados de monitorear su aplicación adecuada (Bazurto Mecias et al., 2024).

1.2.2. La confrontación con normativa internacional: El impacto del RGPD en Ecuador

Uno de los marcos normativos más sólidos y completos en su estructura para el amparo de datos personales en el aspecto tecnológico es el Reglamento General de Protección de Datos introducido por la UE. El RGPD ha establecido un modelo para una política de privacidad mundial, específicamente para la IA. Esta norma, además de regular el tratamiento de datos personales, otorga a los individuos derechos esenciales, como el derecho al olvido y el derecho a la portabilidad, los cuales brindan a los usuarios oportunidades en administrar y controlar sus datos (Sanz Chacón, 2020).

Como se ha mencionado, es un paso positivo la LOPDP dentro del marco jurídico en Ecuador, sin embargo, aún queda un gran camino por recorrer, puesto que, su aplicación en Ecuador aún está en primera fase. En comparación al RGPD, la LOPDP no define ni hace énfasis con claridad en la transparencia de los algoritmos y el derecho a la intervención humana en la toma de decisiones por sistemas automatizados de inteligencia artificial, lo cual conlleva una inseguridad jurídica respecto a la protección efectiva de los derechos civiles (Grupo Goberna, 2024).

En este punto se trae a colación un caso real: la multa impuesta por la Comisión Nacional Francesa de Informática y Libertades (CNIL) a Google, por la falta de transparencia de los algoritmos en su plataforma publicitaria destaca como una importante implementación del RGPD en el contexto europeo. Bajo esta pesquisa, la utilización de la IA en las empresas ecuatorianas puede estar en alto riesgo si operan sin una supervisión adecuada, ya que Ecuador no posee regulaciones sólidas y métodos de supervisión efectivos.

1.2.3. El impacto de la inteligencia artificial en la protección de datos personales

La inteligencia artificial ha demostrado su capacidad para procesar cantidades masivas de datos, permitiendo avances significativos en áreas como la educación, la economía y la salud. Sin embargo, también ha creado peligros relacionados con la privacidad y la discriminación algorítmica, especialmente cuando los sistemas automatizados procesan información personal sin controles adecuados. Estos riesgos son evidentes cuando se utilizan algoritmos para el reclutamiento.

En este caso, los programas de IA entrenados con datos de reclutamiento sesgados aún pueden discriminar por género, raza o clase social. Esto se describe ampliamente en Herrera-Montaluisa et al., (2025), que indican que los algoritmos de inteligencia artificial son capaces de reproducir desviaciones encontradas en información pasada, lo que supone un riesgo importante para la objetividad y equidad de los procedimientos de liquidación.

Asimismo, la IA presenta retos en el sector financiero y bancario de Ecuador. Desde este punto, cuando se califica un crédito por medios automatizados, el mismo puede marcar una diferencia, especialmente si la información que se utiliza para otorgarlo está sesgada o es insuficiente. El análisis de los elementos de estos sistemas aún siguen siendo insuficientes dentro del marco legal de Ecuador, lo que deja a los ciudadanos vulnerables al uso indebido de su información personal sin la supervisión necesaria (Bousquette, 2023).

1.2.4 Propuesta de consolidación regulatoria en Ecuador

Para superar los desafíos actuales, es importante que Ecuador fortalezca sus leyes sobre protección de datos personales respecto del uso de inteligencia artificial., debido a que, el país debe introducir reglas especiales para las decisiones automatizadas, que garanticen que se proteja el derecho a la intervención humana en procesos que afectan significativamente a los ciudadanos. Tal y como recoge el RGPD (Oña et al., 2025, la intervención humana es un principio fundamental para evitar que al momento de utilizar la IA esta sea excesiva o discriminatoria.

De igual manera, es importante establecer un sistema de seguimiento y auditoría independiente para garantizar que la implementación de sistemas de inteligencia artificial se lleve a cabo de manera transparente y plenamente responsable. En este sentido, es fundamental fortalecer el seguimiento de datos personales creado en 2024 para monitorear el cumplimiento de la LOPDP. Sin embargo, la falta de fondos y la formación limitada del personal responsable siguen siendo obstáculos importantes que deben superarse para garantizar la eficacia de las normas.

2. El impacto normativo de la inteligencia artificial en Ecuador

La inteligencia artificial (IA) se ha extendido con fuerza y velocidad a muchas áreas de la vida y ha transformado la forma en que operan las instituciones, los procesos económicos y la forma en que interactuamos entre nosotros. A pesar de la innovación tecnológica, Ecuador se encuentra en una etapa inicial para acoplar su Ley respecto de los desafíos que plantea la inteligencia artificial, identificando vacíos legales, las limitaciones que tienen las entidades en el manejo de datos personales y las oportunidades de mejora desde una visión comparativa.

2.1 La innovación digital y su quebrantamiento con la capacidad normativa.

Se consolida un rompimiento entre estos dos aspectos debido al lento proceso legislativo: La innovación digital y el marco legal, debido a la rapidez del desarrollo de la inteligencia artificial. La Ley de Protección de Datos Personales (LOPDP) en 2021 aún no se ha adaptado a la complejidad de los sistemas de IA, de manera específica en términos de la opacidad de los algoritmos que la componen y autonomía operativa (Jiménez & Romero, 2021).

En ausencia de regulaciones específicas que regulen el desarrollo, capacitación y operación de sistemas inteligentes, los ciudadanos son vulnerables a decisiones automatizadas que pueden tener importantes consecuencias legales, económicas o sociales. Esta brecha también es estructural: la infraestructura institucional del país, incluidas sus capacidades técnicas, académicas y regulatorias, aún no está lista para enfrentar los desafíos que plantea una IA en constante aumento (Maldonado & Pérez, 2023).

2.2 Lagunas legales en la regulación del aprendizaje automático y las decisiones automatizadas

La toma de decisiones automatizada con sistemas de IA genera varios desafíos regulatorios que aún no se han resuelto en Ecuador, lo cual, genera un contraste de lo que deriva del Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que da derecho a los titulares de los datos a no ser objeto de decisiones basadas en un tratamiento exclusivamente automatizado, mientras que, la normativa ecuatoriana no cuenta con precepto alguno que reconozca ese derecho de manera expresa (Delgado & Reinoso, 2023).

Tal vacío implica, de manera precisa, que las personas pueden ser evaluadas, seleccionadas o excluidas por algoritmos opacos; sin comprender el resultado de la evaluación y, menos aún, tener algún recurso adecuado, comprensible o satisfactorio, sin ser vinculados a los algoritmos. Esta situación es especialmente dramática cuando tiene lugar en el ámbito financiero, así como, en el educativo y el laboral, donde la IA puede establecer si una persona accede, o no, a un crédito, a una beca, si obtiene empleo o se queda por fuera. La opacidad inherente al aprendizaje automático, unido a la falta de controles normativos, genera riesgos de discriminación, sesgos y vulneraciones al principio de legalidad y transparencia (Silva & Ortega, 2024).

2.3 Superintendencia de Protección de Datos: alcances y limitaciones

La creación en 2024 de la Superintendencia de Protección de Datos Personales (SPDP) es un hecho significativo en el proceso de institucionalización de la protección de derechos digitales en Ecuador, pues la misión de la nueva entidad se centra en la supervisión del cumplimiento de la LOPDP, así como en la efectiva realización de los derechos de los titulares de datos personales. A pesar de esto, su poder de fiscalización sigue siendo limitado, por falta de normativa técnica y por la falta de personal especializado en auditoría algorítmica (Paredes & Mejía, 2024).

Discrepan los principios dentro del Estatuto Orgánico de la SPDP, que privilegian valores como la responsabilidad institucional en el manejo de algoritmos de IA y la protección efectiva, de las herramientas técnicas que permiten auditar el funcionamiento de modelos de IA complejos. Así, no hay procedimientos claros para pedir evaluaciones de impacto algorítmico, tampoco existen estándares de transparencia o de interpretabilidad. Ante esto, la SPDP actúa de manera reactiva, centrándose en la denuncia de casos individuales, lo que dificulta la supervisión sistémica del uso de tecnologías de la información que sean de confianza.

2.4 Derecho comparado: enfoques regulatorios y buenas prácticas

El análisis de otras jurisdicciones permite identificar estrategias regulatorias que podrían adaptarse al contexto ecuatoriano. En la Unión Europea, el Reglamento de Inteligencia Artificial aprobado en 2024 propone un enfoque basado en el riesgo, clasificando los sistemas de IA según su impacto potencial sobre los derechos fundamentales. Los sistemas de alto riesgo como los utilizados en educación, migración, justicia o contratación están sujetos a requisitos estrictos de transparencia, trazabilidad y supervisión humana (Comisión Europea, 2024).

Por otro lado, el avance de la Estrategia Brasileña para la Inteligencia Artificial, con la que Brasil propugna por un desarrollo ético de la IA establece: guías técnicas, gestión de riesgos, mitigación de sesgos e incluso protección de derechos humanos, representando el camino que se debe seguir. También, la propuesta de la Ley de Inteligencia Artificial y Datos (AI and Data Act - AIDA) de Canadá, impone obligaciones legales a entidades que desarrollan e implementan sistemas de IA, incluidas auditorías independientes y evaluaciones de impacto, es otro camino a tomar en cuenta (Moraes & Cardoso, 2022).

Estas experiencias demuestran que es posible construir marcos regulatorios que promuevan la innovación tecnológica sin menoscabar la dignidad humana ni los principios democráticos. Para Ecuador, estos modelos ofrecen lecciones sobre cómo articular una regulación eficaz que combine flexibilidad técnica con rigor jurídico.

2.5. Propuestas normativas para una IA ética y constitucional

Considerando el diagnóstico anterior, se plantean las siguientes propuestas normativas para garantizar un desarrollo ético y constitucional de la inteligencia artificial en Ecuador:

a) Reconocimiento legal del derecho a la intervención humana significativa en decisiones automatizadas que afecten derechos fundamentales.

b) Registro nacional de sistemas de IA de alto riesgo, supervisado por la SPDP, que requiere informar sobre los algoritmos utilizados en procesos públicos o sensibles.

c) Implementación obligatoria de evaluaciones de impacto algorítmico para todos los sistemas que procesan datos personales automáticamente.

d) Adopción de principios de transparencia algorítmica, asegurando el acceso del sujeto de los datos a explicaciones claras y comprensibles.

e) Formación continua para operadores jurídicos y técnicos en temas de ética digital, derecho tecnológico y protección de datos.

f) Reformas al Código Orgánico Integral Penal (COIP) para sancionar el uso malicioso o discriminatorio de tecnologías inteligentes.

Estas medidas contribuirían a cerrar la brecha normativa y a establecer una gobernanza tecnológica que proteja efectivamente los derechos de los ciudadanos en un entorno digital en expansión.

3. Retos ético-jurídicos de la inteligencia artificial en un Estado constitucional de derechos

La inteligencia artificial plantea desafíos que trascienden lo técnico para tocar aspectos fundamentales del orden jurídico, ético y democrático. En Estados constitucionales de derechos como el ecuatoriano, el uso creciente de tecnologías inteligentes demanda no solo reformas normativas, sino también una reflexión profunda sobre la relación entre automatización, dignidad humana y el ejercicio de la ciudadanía. Por consiguiente, este capítulo explora los principales retos ético-jurídicos que enfrenta el Ecuador frente a la expansión de la IA, con especial énfasis en la protección de los derechos fundamentales, la igualdad, la no discriminación y la necesidad de establecer límites constitucionales a las decisiones algorítmicas.

3.1. Dignidad humana e independencia a la luz de la lógica algorítmica

La dignidad humana es uno de los principios más amenazados por el avance de la inteligencia artificial. Dado que los algoritmos pueden reemplazar los procesos de toma de decisiones que antes estaban reservados únicamente al juicio humano, existe el riesgo de deshumanizar a los humanos al reducirlos a patrones de comportamiento, estadísticas y variables de desempeño. Este fenómeno afecta la percepción plena de la autonomía personal y el poder de cada individuo para influir en los acontecimientos que afectan su vida (López & Almeida, 2021).

Desde un enfoque constitucional, el artículo 66.19 de la Constitución reconoce el derecho a la protección de los datos de carácter personal, lo que implica que toda recolección, archivo, procesamiento o difusión de información requiere la autorización del titular o el mandato expreso de la ley. En consecuencia, cualquier tipo de aplicación tecnológica que reemplace, complemente o condicione la voluntad humana (incluidos los sistemas de inteligencia artificial) debe ser examinada rigurosamente, pues su funcionamiento puede involucrar el tratamiento de datos personales y, por tanto, afectar de manera directa este derecho constitucionalmente garantizado.

La automatización del proceso de toma de decisiones en áreas como el acceso a los servicios públicos, el poder judicial, la salud o la seguridad social puede conducir a la deshumanización de los procesos de toma de decisiones y crear excepciones que el propio sistema desconoce (Ulloa & Rueda, 2022). En este contexto, se hace imprescindible garantizar que toda implementación de IA respete el principio de intervención humana significativa y la posibilidad de impugnar decisiones automatizadas. Asimismo, la dignidad debe ser un eje transversal en el diseño, uso y supervisión de tecnologías inteligentes, actuando como límite frente a la lógica instrumental y la eficiencia algorítmica.

3.2. Riesgos de discriminación algorítmica y sesgos estructurales

Otro de los grandes dilemas ético-jurídicos que plantea la IA es la posibilidad de perpetuar o agrandar desigualdades previas a partir de decisiones automatizadas. La discriminación algorítmica puede generarse cuando los datos usados para entrenar los modelos son los que recogen sesgos históricos, desigualdades de fondo o estereotipos sociales (Martínez & Bravo, 2023). Razón por la cual, los algoritmos pueden arrojar resultados que, a pesar de parecer objetivos, acaban robusteciendo patrones de exclusión. Este problema tiene serias implicaciones en cuanto a la igualdad ante la ley y a la no discriminación, derechos que la Constitución ecuatoriana y algunos instrumentos internacionales protegen de manera expresa.

El uso de IA para poder filtrar los candidatos a trabajos, confeccionar perfiles de riesgo en el ámbito judicial o bien para determinar si alguien tiene derecho a acceder a beneficios sociales puede dar lugar a decisiones sesgadas por motivos de género, grupo étnico, clase social y por condición de adhesión (Viteri & Narváez, 2023). Por ello, se requiere establecer mecanismos de auditoría algorítmica, fomentar la diversidad en los equipos de desarrollo tecnológico y promover la trazabilidad de las decisiones automatizadas. Estas medidas no solo tienen valor técnico, sino que son esenciales para garantizar el cumplimiento de los principios de equidad y justicia material en la era digital.

3.3. Responsabilidad legal en un contexto automatizado

El uso de sistemas inteligentes plantea cuestiones complejas sobre cómo se determina la responsabilidad en casos de violaciones de derechos o daños. ¿Quién es responsable si el algoritmo comete un error? ¿Es el programador, el usuario, la institución que lo implementa o el propio sistema? En Ecuador, la legislación actual no proporciona un régimen de responsabilidad específico para las decisiones automatizadas, lo que crea incertidumbre legal (Ramírez & Galarza, 2023). La dificultad para identificar al responsable directo se agrava cuando los algoritmos operan como “cajas negras”, lo que significa que no hay forma de entender su lógica interna.

Esta opacidad impide la aplicación de principios tradicionales del derecho civil o administrativo. En respuesta, algunos países han optado por establecer una responsabilidad estricta o compartida en casos de uso de IA en entornos sensibles. Para el caso ecuatoriano, es necesario reformar el marco legal para reconocer explícitamente la existencia de riesgos tecnológicos y establecer principios de precaución, diligencia debida y transparencia en el uso de tecnologías inteligentes, especialmente cuando se utilizan en el ejercicio de poderes públicos.

3.4. Gobernanza democrática y control social sobre la IA

En un Estado constitucional de derechos, el uso de tecnologías con capacidad de tomar decisiones debe estar sometido a mecanismos de control democrático. La gobernanza de la inteligencia artificial no puede quedar exclusivamente en manos de expertos o corporaciones tecnológicas; debe incluir procesos participativos que permitan a la sociedad deliberar sobre los límites, fines y condiciones de uso de estas herramientas (Pazmiño & Torres, 2024), por tal motivo, los ciudadanos deben tener información clara sobre cómo se utilizan los sistemas de IA, qué datos se procesan, con qué fines y con qué criterios se toman las decisiones.

La transparencia es una condición esencial para ejercer el derecho a la participación, la información o la rendición de cuentas. Del mismo modo, se deben promover observatorios ciudadanos y estructuras independientes para monitorear el uso ético de la tecnología, debido a que, sin una activa participación social, se corre el riesgo de que la IA sirva para el control, la vigilancia o la exclusión de determinados sectores de la población, sobre todo entre las poblaciones más vulnerables. Por ello, la gobernanza democrática debe ser entendida como una condición necesaria para garantizar que la inteligencia artificial se desarrolle de manera alineada con los principios constitucionales y los valores democráticos.

Discusión

Los resultados de esta investigación evidencian que el Ecuador atraviesa un marcado rezago en la configuración de una gobernanza jurídica eficaz frente al avance de la inteligencia artificial (IA). A diferencia de otras jurisdicciones que evolucionan hacia marcos regulatorios robustos con relativa fluidez, el contexto ecuatoriano se mantiene en una etapa pre-normativa, caracterizada por la ausencia de una planificación legislativa integral, la limitada capacidad institucional para ejercer una supervisión técnica efectiva y el escaso reconocimiento de los riesgos éticos y jurídicos asociados a los sistemas automatizados.

Tal vacío estructural ha dado pie a la puesta en práctica informal y no regulada de la tecnología en diversas áreas del sector público, sin las mínimas garantías de transparencia, rendición de cuentas o participación de los ciudadanos. Uno de los hallazgos más relevantes fue la inexistencia de una definición legal de inteligencia artificial dentro del ordenamiento jurídico ecuatoriano.

La única norma con relación indirecta es la Ley Orgánica de Protección de Datos Personales (LOPDP), promulgada en 2021, la cual aborda superficialmente el tratamiento automatizado de datos, sin referirse a los sistemas algorítmicos de decisión autónoma, ni a los niveles de riesgo asociados a su aplicación. En este sentido, el marco legal vigente resulta insuficiente para abordar los desafíos derivados de la automatización, lo cual contrasta fuertemente con los avances de países como Brasil y regiones como la Unión Europea, donde se han diseñado marcos regulatorios detallados y preventivos.

Evaluación del marco normativo ecuatoriano sobre IA

Los resultados muestran que el Ecuador carece de una normativa específica sobre inteligencia artificial. La única ley vigente con relación indirecta a la IA es la Ley Orgánica de Protección de Datos Personales (LOPDP, 2021), que aborda algunos aspectos del tratamiento automatizado de datos personales, pero sin considerar el impacto de los sistemas de decisión autónomos o la necesidad de una clasificación de riesgos tecnológicos.

Tabla 1. Cobertura normativa sobre inteligencia artificial en Ecuador frente a la Unión Europea y Brasil

Elemento regulatorio clave

Ecuador (LOPDP, 2021)

Unión Europea (AI Act, 2024)

Brasil (Estrategia Nacional IA, 2022)

Definición jurídica de IA

No

Clasificación de riesgos (bajo, medio, alto)

No

Parcial

Regulación de decisiones automatizadas

No

Parcial

Derecho a la explicación

No

No

Obligación de evaluación de impacto en derechos

No

Registro público de sistemas de alto riesgo

No

No

Supervisión institucional autónoma

Parcial

Parcial

Prohibiciones explícitas (vigilancia masiva)

No

No

Fuente: Elaboración propia basada en normativa primaria (2021–2024)

Como ilustra esta tabla, a pesar de que la Unión Europea (UE) ha avanzado hacia una regulación sólida, preventiva y basada en el riesgo, Ecuador todavía se encuentra en las etapas iniciales de trabajar hacia este punto. La ausencia de una definición legal de IA impide el desarrollo de políticas públicas específicas, y la falta de obligaciones claras para entidades públicas o privadas en cuanto a evaluaciones de impacto o explicabilidad crea áreas grises legales.

Galarza y Ramírez (2023), sostienen que esta brecha regulatoria permite que los ciudadanos estén sujetos a decisiones automatizadas que no pueden ser impugnadas o auditadas, lo que socava el principio de protección judicial efectiva. En contraste, el AI Act europeo no solo clasifica los sistemas de IA según su nivel de riesgo, sino que impone obligaciones proporcionales a ese riesgo, como auditorías, evaluaciones de impacto y mecanismos de revisión humana. En Ecuador, la inexistencia de estos mecanismos implica una brecha de protección significativa.

Capacidades institucionales de la Superintendencia de Protección de Datos Personales (SPDP)

Otro hallazgo importante es la limitada capacidad institucional de la SPDP para abordar la complejidad técnica y jurídica de la inteligencia artificial.

Aunque este organismo fue creado para garantizar los derechos relacionados con el tratamiento de datos, no cuenta con una unidad especializada en fiscalización de algoritmos, ni con personal capacitado en aprendizaje automático, ética algorítmica o ingeniería de datos.

Tabla 2. Diagnóstico institucional de la SPDP frente a los desafíos de la inteligencia artificial

Elemento evaluado

Situación actual

Recomendación técnica-jurídica

Existencia de normativa técnica sobre IA

No

Elaborar guías normativas especializadas

Unidad técnica para auditoría algorítmica

No

Crear división de supervisión de sistemas IA

Formación del personal en IA

Insuficiente

Capacitación interdisciplinaria jurídica-tecnológica

Facultades sancionadoras en materia de IA

Limitadas (solo para protección de datos)

Ampliar competencia legal de fiscalización

Capacidad de articulación interinstitucional

Débil

Establecer redes de cooperación nacional e internacional

Fuente: Elaboración propia a partir de documentos oficiales de la SPDP (2023–2024)

La regulación efectiva de tecnologías emergentes no solo depende de normas, sino de instituciones que comprendan y puedan intervenir sobre el objeto técnico regulado. Se puede verificar que la SPDP, en su estado actual, no posee herramientas legales ni capacidades prácticas para intervenir en sistemas de IA que, por ejemplo, excluyen ciudadanos de subsidios o evalúan solicitudes judiciales mediante filtros automatizados. Esta situación no solo es un problema técnico, sino una amenaza jurídica al principio de seguridad jurídica y al debido proceso. Si no existen entidades capaces de auditar y sancionar decisiones algorítmicas lesivas, se produce un escenario de desprotección estructural para la ciudadanía.

Identificación de riesgos ético-jurídicos derivados de sistemas de IA

El estudio documental también identificó tres riesgos críticos asociados al uso de IA en el Ecuador sin regulación:

- Opacidad algorítmica: Las decisiones tomadas por sistemas inteligentes carecen de trazabilidad o justificación comprensible para los ciudadanos, vulnerando el derecho a ser informado (Art. 18 CRE).

- Discriminación algorítmica: Algunos sistemas de inteligencia artificial utilizados en servicios públicos se basan en conjuntos de datos históricos o sesgados, reproduciendo patrones de exclusión socioeconómica, étnica o territorial. Esto es, de hecho, una violación del derecho a la igualdad y no discriminación (Art. 66 CRE).

- Falta de intervención humana significativa: Ha habido casos de algoritmos que adoptan modelos automáticos para llevar a cabo procesos en salud pública, asignación de subsidios o justicia que carecen de un elemento humano en el proceso de toma de decisiones y, en consecuencia, violan el principio de debido proceso.

Mientras el AI Act europeo prohíbe expresamente sistemas que puedan manipular emocionalmente al usuario o realizar vigilancia biométrica en tiempo real en espacios públicos sin orden judicial, Ecuador aún permite su implementación sin regulación específica. Como afirman Silva y Ortega (2024) esta permisividad normativa coloca al país en una situación crítica, pues favorece una implementación tecnológica sin control democrático ni garantías jurídicas.

Implicaciones para la construcción de un modelo constitucional de regulación de IA

Los resultados revelan que, a pesar de los vacíos existentes, el Ecuador cuenta con una Constitución que permite estructurar una regulación avanzada de la IA, basada en principios de dignidad humana, precaución, transparencia, igualdad y rendición de cuentas. Este marco normativo, si se articula con mecanismos técnicos, podría convertir al país en un referente regional.

El modelo propuesto debe incluir:

- Reformas a la LOPDP que incluyan regulación explícita de la IA.

- Creación de una Autoridad de Supervisión de IA, con independencia funcional.

- Clasificación de sistemas de IA según niveles de riesgo.

- Mecanismos obligatorios de evaluación de impacto algorítmico.

- Garantías procesales como el derecho a revisión humana y explicación.

Implicaciones teóricas y prácticas

Desde el plano teórico, esta investigación aporta una perspectiva crítica que combina el análisis normativo con la doctrina constitucional y los estándares internacionales de derechos humanos. Propone un nuevo enfoque de regulación tecnológica centrado en el respeto a la persona humana y en la función garantista del Estado.

En cuanto al plano práctico, los resultados dan una hoja de ruta para que legisladores, jueces, técnicos y organizaciones de la sociedad civil puedan estructurar una gobernanza jurídica y ética de la inteligencia artificial. Las recomendaciones planteadas son realizables dentro del marco constitucional en su estado actual y pueden ajustarse progresivamente mediante reformas legales y fortalecimiento institucional.

Conclusiones

Para concluir, es importante señalar que esta investigación pudo evidenciar que en Ecuador todavía tiene una cuidadosa distancia en la creación del marco normativo e institucional que permita la gobernanza de la inteligencia artificial. Sin ir más lejos, el ordenamiento jurídico ecuatoriano no tiene por el momento una definición de inteligencia artificial, clasificaciones sobre el riesgo, auditoría algorítmica ni mecanismos de control preventivo sobre los impactos que estos sistemas pueden tener en los derechos fundamentales de las personas, al contrario de otras jurisdicciones como la Unión Europea o Brasil.

Uno de los muy destacados resultados que se obtuvo fue la insuficiencia de la Ley Orgánica de Protección de Datos Personales (2021), que, si bien es cierto que es una mejora a la hora de tratar la cuestión del tratamiento de datos, es insuficiente para abordar las dificultades muy concretas que plantea el uso de sistemas de decisión autónoma. La falta de obligaciones explícitas para realizar una evaluación de cómo afecta la IA a los derechos humanos, la falta de transparencia y explicabilidad en los procesos automatizados producen un margen de alta vulnerabilidad jurídica de la ciudadanía.

Por su lado, se evidenció que la Superintendencia de Protección de Datos Personales, en su doble condición de cuerpo de control y de fiscalización de la ley, con relación a su intervención en el uso de sistemas de inteligencia artificial, carece de las capacidades técnicas y de las facultades legales para llevar a cabo la fiscalización del uso de los sistemas de inteligencia artificial. Esta falencia institucional plantea, evidentemente, limitaciones críticas en lo que respecta a la posibilidad de garantizar la tutela efectiva de los derechos y resalta los riesgos de la opacidad algorítmica, la discriminación algorítmica y la inexistencia de una intervención humana determinante.

Ecuador tiene un marco de derechos y principios, según lo estipulado en la Constitución, que puede servir como base para una regulación nacional de inteligencia artificial. Cualquier proyecto de ley sobre estos temas debe estar basado en la transparencia, la igualdad, el principio de precaución, la rendición de cuentas y la dignidad humana. Por lo tanto, se debe promover urgentemente la formulación de una ley orgánica sobre inteligencia artificial, con criterios diferenciados según los niveles de riesgo, garantizando la supervisión institucional independiente, protegiendo efectivamente los derechos individuales contra decisiones automatizadas, y la inclusión de estándares internacionales.

Se recomienda a las autoridades de control mejorar sus capacidades técnicas, jurídicas y éticas y fomentar la participación ciudadana en este ámbito. En general, esta investigación ofrece aportes teóricos y prácticos para desarrollar una propuesta destinada a regular la inteligencia artificial en Ecuador, que incorpore los desafíos tecnológicos y las obligaciones constitucionales del Estado en relación con los derechos fundamentales y la dignidad humana. Para lograr una transformación digital justa, democrática e inclusiva, no solo es posible, sino esencial adoptar un modelo de gobernanza responsable, proactivo y centrado en las personas los derechos humanos reconocidos a nivel internacional.

Conflicto de intereses

Los autores declaran no tener ningún conflicto de interés.

Referencias bibliográficas

Barragán Martínez, M. X. (2023). Situación de la inteligencia artificial en el Ecuador en relación con los países líderes de la región Cono Sur. Revista de Investigación FIGEMPA, 16(2), 23–38. https://revistadigital.uce.edu.ec/index.php/RevFIG/article/view/4498

Bazurto Mecias, C. J., Jurado Cabello, Y. K., Sifa Mueses, L. M., & Reinoso Paredes, A. G. (2024). La ciberdelincuencia y la protección de datos personales en Ecuador. Sinergia Académica, 2024, 1–15. https://sinergiaacademica.com/index.php/sa/article/view/289

Bousquette, I. (2023). Rise of AI Puts Spotlight on Bias in Algorithms. Wall Street Journal. https://www.wsj.com/articles/rise-of-ai-puts-spotlight-on-bias-in-algorithms-26ee6cc9

Comisión Europea. (2024). Reglamento de Inteligencia Artificial de la Unión Europea. https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12527-Artificial-intelligence-ethical-and-legal-framework

De la Maza, H., & Momberg Uribe, M. (2017). Desafíos normativos para la protección de datos en América Latina. https://www.fundacionlatinoamericana.org/

Delgado, P., & Reinoso, F. (2023). La ausencia de regulación sobre decisiones automatizadas en el Ecuador. Foro Jurídico, 14(1), 24–40.

Escalante, F. (2007). La protección de datos personales en el contexto de la IA. Editorial Jurídica.

Galarza, H., & Ramírez, C. (2023). Vacíos normativos y gobernanza algorítmica: desafíos jurídicos de la inteligencia artificial en Ecuador. Revista Latinoamericana de Derecho Digital, 7(2), 110–128.

Grupo Goberna. (2024). Nuevas legislaciones para regulación de inteligencia artificial en Ecuador. Goberna. https://grupogoberna.com/ecuador-inteligencia-reforma-en-leyes-de-inteligencia-para-combatir-el-crimen-organizado/

Herrera-Montaluisa, S. E., Crespo-Crespo, M. R., & Alvear-Calderón, M. J. (2025). Desafíos Constitucionales ante el Avance de la Inteligencia Artificial. In Revista Científica “Dominio de las Ciencias” (Vol. 11, Issue 2). http://dominiodelasciencias.com/ojs/index.php/es/index

Herrera de las Heras, R. (2022). Aspectos legales de la inteligencia artificial: Personalidad jurídica de los robots, protección de datos y responsabilidad civil. Dykinson. https://www.dykinson.com/libros/aspectos-legales-de-la-inteligencia-artificial/9788411221092/

Jiménez, L., & Romero, D. (2021). Derecho y tecnología: desafíos para la protección de datos en América Latina. Revista Ius, 28(1), 45–62. https://doi.org/10.22201/iij.24487872e.2021.1.159

López, M., & Almeida, C. (2021). La dignidad humana frente a la inteligencia artificial: una aproximación desde el derecho constitucional. Revista Ecuatoriana de Derecho Constitucional, 11(2), 33–52.

Maldonado, C., & Pérez, S. (2023). La protección de datos en la era de la inteligencia artificial: análisis jurídico en Ecuador. Revista Jurídica Andina, 17(3), 110–132.

Martínez, S., & Bravo, A. (2023). Sesgos algorítmicos y su impacto en la igualdad jurídica: retos para el derecho ecuatoriano. Justicia y Tecnología, 6(1), 48–66.

Moraes, A., & Cardoso, J. (2022). La estrategia brasileña de IA: ética, derechos y transparencia. Revista de Tecnología y Derecho, 5(3), 54–70.

Núñez Ponce, J. (2021). El derecho digital y de las nuevas tecnologías: su importancia en el gobierno y en la empresa. Giuristi: Revista de Derecho Corporativo, 2(3), 85–104. https://doi.org/https://doi.org/10.46631/Giuristi.2021.v2n3.06

Oña, O., Parrales, L., Vera, M., & Zhigue, F. (2025). La protección de datos personales en la era digital. Retos y oportunidades. Revista Latinoamericana de Ciencias Sociales, Educación Comercial y Derecho, 2(1), 38–45. www.revistalexenlace.com

Paredes, L., & Mejía, R. (2024). Capacidades institucionales para la protección de datos personales en Ecuador. Revista Latinoamericana de Derecho Digital, 8(2), 89–108.

Pazmiño, K., & Torres, F. (2024). Democracia y control social en la era de la inteligencia artificial. Constitución y Tecnología, 7(1), 29–45.

Ramírez, J., & Galarza, E. (2023). Responsabilidad civil y penal en el uso de inteligencia artificial: análisis doctrinal para el Ecuador. Derecho Contemporáneo, 12(1), 56–78.

Sanz Chacón, C. (2020). Qué es la inteligencia. https://www.elmundodelsuperdotado.com/que-es-la-inteligencia/

Silva, M., & Ortega, D. (2024). Toma de decisiones algorítmicas y derechos fundamentales en Ecuador. Derecho y Sociedad, 19(2), 77–95.

Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460. https://academic.oup.com/mind/article/LIX/236/433/986238

Ulloa, V., & Rueda, M. (2022). Automatización, exclusión y derechos humanos en contextos digitales. Estudios Jurídicos Latinoamericanos, 9(1), 75–92.

Viteri, J., & Narváez, E. (2023). Discriminación algorítmica: una amenaza emergente para los derechos constitucionales. Revista Jurídica Del Ecuador, 18(2), 102–120.

Declaración de contribución a la autoría según CRediT

Fabiola Chávez Zambrano: conceptualización, metodología, investigación, análisis formal, redacción del borrador original, redacción-revisión y edición. Carlos Eric San Andrés Molina: conceptualización, investigación, análisis formal y redacción del borrador original.